Каталог
ZV
ездный б-р, 19
+7 (495) 974-3333 +7 (495) 974-3333 Выбрать город: Москва
Подождите...
Получить токен
Соединиться
X
Сюда
Туда
x
Не выбрано товаров для сравнения
x
Корзина пуста
Итого: 
Оформить заказ
Сохранить заказ
Открыть корзину
Калькуляция
Очистить корзину
x
X
Главная
Магазины
Каталог
Мои заказы
Корзина
Магазины Доставка по РФ
Город
Область
Ваш город - ?
От выбранного города зависят цены, наличие товара и
способы доставки

Четверг, 11 апреля 2024 17:53

По некоторым сведениям, AMD в следующем поколении APU пожертвует большим размером кэша в пользу встроенных компонентов для ИИ

короткая ссылка на новость:
В то время как производители чипов переходят на встроенную аппаратную поддержку генеративного ИИ на локальных компьютерах, некоторые пользователи сомневаются: а нужно ли это? Встроенные нейропроцессоры (NPU) сегодня у всех на слуху, поскольку производители «железа» взяли курс на персональные компьютеры с поддержкой ИИ (концепция "AI PC"), однако их продвижение в этом направлении также сопровождается дискуссиями о том, нельзя ли использовать пространство, занимаемое NPU в схеме чипа, как-либо более выгодно. Не будут ли NPU зря занимать место в чипе?

amd

Как пишут участники форумов Anandtech, в будущих чипах APU AMD Strix Point значительно урезали размер кэша, чтобы разместить большие схемы для поддержки ИИ. Если эти данные подтвердятся, это можно трактовать как весомую ставку AMD и других производителей процессоров на модный тренд, который пока никак себя не оправдал.

Пользователь с ником uzzi38 заявил, что в AMD изначально собирались оснащать APU Strix Point кэшем системного уровня, что существенно улучшило бы производительность CPU и встроенной графики. Однако этот план был изменен в пользу усиления блоков нейропроцессинга (NPU), которые позиционируются как основная движущая фишка новой волны AI PC.

Другой участник форума, adroc_thurston, добавил, что в Strix Point изначально предполагалось сделать 16-мегабайтный MALL-кэш.

lisa su

Intel, AMD и Qualcomm активно продвигают ИИ как интегрированную функцию своих процессоров будущих поколений. Они планируют опираться на NPU как на основной аппаратный ресурс, обеспечивающий локальное выполнение сценариев для ИИ, то есть решающий задачу, которую сегодня обычно решают силами облачных сервисов, таких как ChatGPT.

Intel идет в авангарде этого движения с серией процессоров Meteor Lake, вышедших в конце прошлого года. Компания собирается последовательно наращивать производительность NPU в грядущих сериях чипов, таких как Arrow Lake, Lunar Lake и Panther Lake. Серия AMD Strix Point, намеченная уже на этот год, должна усилить совокупную мощность ядер CPU Zen 5 и графических ядер RDNA 3.5 улучшенным функционалом ИИ. Эти производители чипов идут в ногу с Microsoft и ее концепцией ПК с ИИ, к требованиям которой относятся такие вещи, как выделение специальных клавиш для ИИ и мощность NPU не менее 40 TOPS.

Однако производители «железа» и разработчики программного обеспечения еще не до конца изучили вопрос, какие преимущества генеративный ИИ дает конечным пользователям. Сегодня основной областью применения больших моделей ИИ считается генерирование изобразительного и текстового контента, однако высказываются определенные сомнения в части соблюдения авторских прав и достоверности информации, получаемой от ИИ. Microsoft расписывает будущее генеративного ИИ как революционное преобразование среды взаимодействия пользователя и Windows, где будут автоматически решаться такие задачи, как восстановление файлов и подбор настроек, но эти теории пока остаются непроверенными.


Многие пользователи на Anandtech опасаются, что генеративный ИИ окажется «мыльным пузырем» и если он лопнет, это негативно отразится на всей индустрии AI PC и нескольких поколениях чипов SoC. Если эта технология не привлечет массового пользователя, множество продуктов с NPU могут оказаться в категории ограниченной применимости.

Источник: TechSpot

подписаться   |   обсудить в ВК   |